FILTER MODE ACTIVE

#длинный контекст

Найдено записей: 21

#длинный контекст16.11.2025

Cerebras уменьшила MiniMax-M2 до 162B с помощью REAP, сохранив 10B активных параметров для долгих контекстов и кодирования агентов

Cerebras представила MiniMax-M2-REAP-162B-A10B — 30% REAP-прюнинг экспертов уменьшает память без заметной потери качества на задачах кода, рассуждений и вызова инструментов.

#длинный контекст22.09.2025

Qwen3-Next-80B-A3B в FP8: гибридный MoE 80B/3B становится жизнеспособным на обычных GPU

Qwen из Alibaba выпустила FP8-контрольные точки для Qwen3-Next-80B-A3B (Instruct и Thinking), что делает практичным деплой 80B/3B-гибридного MoE на обычных GPU и улучшает производительность в режимах длинного контекста

#длинный контекст09.08.2025

Крошечные титаны: Qwen3-4B-Instruct-2507 и Qwen3-4B-Thinking-2507 приносят 256K контекст на обычный железо

'Alibaba выпустила две 4-миллиардные модели с нативным окном в 256K токенов: Instruct для кратких многоязычных ответов и Thinking для явных цепочек рассуждений и сложных задач.'

#длинный контекст23.07.2025

Qwen Представляет Qwen3-Coder-480B-A35B-Instruct: Самую Мощную Открытую Агентную Модель Для Кода

Qwen выпустила Qwen3-Coder-480B-A35B-Instruct — самую мощную открытую агентную модель для кода с масштабной архитектурой, широкой поддержкой языков и новым открытым CLI-инструментом Qwen Code.

#длинный контекст11.07.2025

Microsoft Представляет Phi-4-mini-Flash-Reasoning: Быстрая и Компактная Модель для Сложных Задач с Длинным Контекстом

Microsoft представила Phi-4-mini-Flash-Reasoning — компактную модель с 3.8 млрд параметров, оптимизированную для эффективного анализа длинных контекстов и быстрого вывода, превосходящую предыдущие модели на сложных задачах.

#длинный контекст27.05.2025

QwenLong-L1: Продвинутый фреймворк для длинного контекстного вывода в больших языковых моделях с использованием обучения с подкреплением

QwenLong-L1 представляет структурированный подход к обучению с подкреплением, позволяющий большим языковым моделям эффективно решать задачи с длинным контекстом и достигает лучших результатов на множестве бенчмарков.

#длинный контекст22.05.2025

Falcon-H1 от TII: гибридные модели Transformer-SSM для масштабируемого, многоязычного и долгоконтекстного ИИ

Серия Falcon-H1 от TII представляет гибридные модели Transformer-SSM, сочетающие эффективность и производительность с поддержкой длинных контекстов, многоязычностью и масштабируемостью от 0,5 до 34 млрд параметров.

#длинный контекст10.05.2025

xGen-small от Salesforce: революция в корпоративном ИИ с эффективной обработкой длинного контекста

xGen-small от Salesforce — компактная модель ИИ для эффективной обработки длинного контекста с низкими затратами и высокой приватностью, меняющая корпоративные рабочие процессы.

#длинный контекст05.05.2025

RWKV-X: Революция в моделировании длинных контекстов с помощью разреженного внимания и рекуррентной памяти

RWKV-X представляет гибридную модель, объединяющую разреженное внимание и рекуррентную память для эффективного декодирования очень длинных последовательностей с линейной сложностью, превосходя предыдущие модели RWKV в задачах с длинным контекстом.

#длинный контекст04.05.2025

IBM Представляет Granite 4.0 Tiny: Компактная Открытая Модель для Длинных Контекстов и Инструкций

IBM выпустила Granite 4.0 Tiny Preview — компактную открытую языковую модель, оптимизированную для задач с длинным контекстом и инструкциями с высокой эффективностью и производительностью.

#длинный контекст30.04.2025

Переосмысление разреженного внимания: прорывы для эффективных больших языковых моделей с длинным контекстом

Исследователи из Эдинбурга, Cohere и Meta показали, что большие разреженные модели превосходят меньшие плотные при работе с длинным контекстом, предложив новые законы масштабирования и стандартизированные методы.